亚马逊云科技 _机器学习领域信息情报检索

AWS的以下部分介绍了机器学习的文章。Amazon Web Services(AWS)是亚马逊公司内部一个充满活力且不断发展壮大的业务部门。订阅我们,获取关于Amazon Web Services机器学习的文章。

使用Amazon Q Business Custom Connector

Derive generative AI powered insights from Alation Cloud Services using Amazon Q Business Custom Connector

在这篇文章中,我们展示了如何使用自定义数据源连接器将Alation的业务策略与Amazon Q Business应用程序集成的示例。

MISTRAL-SMALL-24B-INSTRUCT-2501现在可以在SageMaker Jumpstart和Amazon Bedrock Marketplace

Mistral-Small-24B-Instruct-2501 is now available on SageMaker Jumpstart and Amazon Bedrock Marketplace

我们很高兴地宣布,Mistral-Small-24B-Instruct-2501-来自Mistral AI的240亿个参数大语言模型(LLM),可针对低延迟文本生成任务进行优化 - 可以通过Amazon Sagemaker Jumpstartand Jumpstartand Amazon Bedrock Marketplace提供客户。在这篇文章中,我们介绍如何发现,部署和使用Mistral-Small-24B-Instruct-2501。

火箭公司如何在AWS上现代化其数据科学解决方案

How Rocket Companies modernized their data science solution on AWS

在这篇文章中,我们分享了如何在AWS上进行现代化的火箭公司的数据科学解决方案,以将交付速度从八周提高到一小时以下,通过在18个月内减少事件票来提高运营稳定和支持。 ,每天做出1000万个自动数据科学和人工智能决策,并提供无缝的数据科学开发经验。

使用Amazon Bedrock中的工具协调智能文档处理工作流程

Orchestrate an intelligent document processing workflow using tools in Amazon Bedrock

这种智能文档处理解决方案使用Amazon Bedrock FMS来协调一个复杂的工作流程,以处理具有混合内容类型的多页医疗保健文档。该解决方案使用FM的工具使用功能,该功能通过亚马逊基岩匡威API访问。这使FMS不仅可以处理文本,还可以积极地使用各种外部工具和API来执行复杂的文档分析任务。

llm连续自我建筑微型调整框架由Amazon Sagemaker上的复合AI系统供电

LLM continuous self-instruct fine-tuning framework powered by a compound AI system on Amazon SageMaker

在这篇文章中,我们将连续的自我实施微型调整框架作为DSPY框架实现的复合AI系统。该框架首先从域知识库中生成一个综合数据集,并为自我建筑生成文档,然后通过SFT驱动模型进行微调,并介绍了人类的工作流程,以将人类和AI的反馈收集到模型响应中,它用于通过增强学习(RLHF/RLAIF)来对齐人类偏好来进一步提高模型性能。

涡轮增压高级审计功能具有生成AI的力量:Verisk迈向精致的对话聊天平台,以增强客户支持

Turbocharging premium audit capabilities with the power of generative AI: Verisk’s journey toward a sophisticated conversational chat platform to enhance customer support

Verisk的高级审计咨询服务是高级审计师和承销商的技术信息和培训的主要来源。在这篇文章中,我们描述了PAAS中客户支持过程的开发,并结合了生成AI,数据,体系结构和结果评估。会话AI助手正在迅速改变客户和员工的支持。

使用Amazon BedRock Guardrails的自动推理检查构建可验证的解释性

Build verifiable explainability into financial services workflows with Automated Reasoning checks for Amazon Bedrock Guardrails

在这篇文章中,我们探讨了如何通过各种常见的FSI方案(例如保险法律分解,承保规则验证和索赔处理)来工作。

Amazon Sagemaker Hyperpod任务治理的最佳实践

Best practices for Amazon SageMaker HyperPod task governance

在这篇文章中,我们提供了最佳实践,以最大程度地提高SageMaker HyperPod任务治理的价值,并使管理和数据科学体验无缝。在管理和运行生成的AI开发任务时,我们还讨论了共同的治理方案。

Formula1®如何使用生成AI加速比赛日发行

How Formula 1® uses generative AI to accelerate race-day issue resolution

在这篇文章中,我们解释了F1和AWS如何开发由亚马逊基岩提供动力的根本原因分析(RCA)助理,以减少手动干预并加速在几周到几分钟内的比赛中分辨出复发性的操作问题。 RCA助理使F1团队能够花更多的时间在创新上并改善其服务,最终为粉丝和合作伙伴提供了非凡的体验。 F1和AWS之间的成功合作展示了生成AI在赋予团队能力以更少的时间内完成的变革潜力。

使用Amazon Bedrock内联代理构建动态的,基于角色的AI代理

Build a dynamic, role-based AI agent using Amazon Bedrock inline agents

在这篇文章中,我们探讨了如何使用Amazon Bedrock Inline Agents构建应用程序,并演示了单个AI助手如何根据用户角色动态调整其功能。

使用Amazon Bedrock

Use language embeddings for zero-shot classification and semantic search with Amazon Bedrock

在这篇文章中,我们探讨了哪些语言嵌入方式以及如何使用它们来增强您的应用程序。我们展示了如何通过使用嵌入式的属性来实现实时零击分类器,并可以添加强大的功能,例如语义搜索。

使用 Amazon SageMaker AI 上的 Medusa-1 将 LLM 推理速度提高约 2 倍

Achieve ~2x speed-up in LLM inference with Medusa-1 on Amazon SageMaker AI

研究人员开发了 Medusa,这是一个通过添加额外头来同时预测多个标记以加快 LLM 推理速度的框架。这篇文章演示了如何使用框架的第一个版本 Medusa-1 通过在 Amazon SageMaker AI 上对其进行微调来加速 LLM,并通过部署和简单的负载测试确认了加速效果。Medusa-1 在不牺牲模型质量的情况下实现了约两倍的推理加速,具体改进取决于模型大小和使用的数据。在这篇文章中,我们通过在样本数据集上观察到 1.8 倍的加速来证明其有效性。

从概念到现实:从概念验证到生产,RAG 之旅

From concept to reality: Navigating the Journey of RAG from proof of concept to production

在本文中,我们探讨了 RAG 应用程序从概念验证或最小可行产品 (MVP) 阶段向成熟生产系统的转变。在将 RAG 应用程序从概念验证过渡到可用于生产的系统时,优化变得至关重要,以确保解决方案可靠、经济高效且性能卓越。

Falcon 3 模型现已在 Amazon SageMaker JumpStart 中可用

Falcon 3 models now available in Amazon SageMaker JumpStart

我们很高兴地宣布,TII 的 Falcon 3 系列模型已在 Amazon SageMaker JumpStart 中推出。在本文中,我们将探讨如何在 Amazon SageMaker AI 上高效部署此模型。

使用 Amazon Bedrock Agents 构建虚拟气象学家

Building a virtual meteorologist using Amazon Bedrock Agents

在本文中,我们介绍了一种通过结合 Amazon Bedrock Agents 和基础模型 (FM) 来部署 AI 驱动代理的简化方法。我们将指导您完成配置代理和实现虚拟气象学家提供准确天气相关响应所需的特定逻辑的过程。

使用 GraphStorm v0.4 加快分布式图形神经网络训练

Faster distributed graph neural network training with GraphStorm v0.4

GraphStorm 是一个低代码企业图形机器学习 (ML) 框架,为 ML 从业者提供了一种在行业规模图形数据上构建、训练和部署图形 ML 解决方案的简单方法。在这篇文章中,我们展示了 GraphBolt 如何在分布式设置中增强 GraphStorm 的性能。我们提供了一个在 SageMaker 上使用 GraphStorm 和 GraphBolt 进行分布式训练的实际示例。最后,我们分享了如何将 Amazon SageMaker Pipelines 与 GraphStorm 结合使用。

使用 Rich Data Co 和 AWS 的生成式 AI 转变信贷决策

Transforming credit decisions using generative AI with Rich Data Co and AWS

Rich Data Co (RDC) 的使命是在全球范围内扩大可持续信贷的获取渠道。其软件即服务 (SaaS) 解决方案为领先的银行和贷方提供了深入的客户洞察和 AI 驱动的决策能力。在这篇文章中,我们讨论了 RDC 如何使用 Amazon Bedrock 上的生成式 AI 来构建这些助手并加速其实现民主化获取可持续信贷的总体使命。

使用 DeepSeek-R1、CrewAI 和 Amazon SageMaker AI 构建代理式 AI 解决方案

Build agentic AI solutions with DeepSeek-R1, CrewAI, and Amazon SageMaker AI

在这篇文章中,我们将演示如何将 DeepSeek-R1 等 LLM(或您选择的其他 FM)从 SageMaker JumpStart 或 Hugging Face Hub 等热门模型中心部署到 SageMaker AI 进行实时推理。我们探索了 Hugging Face TGI 等推理框架,它有助于简化部署,同时集成内置性能优化以最大限度地减少延迟并最大限度地提高吞吐量。此外,我们还展示了 SageMaker 开发人员友好的 Python SDK 如何简化端点编排,从而实现 LLM 支持的应用程序的无缝实验和扩展。